接受严重失衡的数据培训时,深层神经网络通常很难准确地识别几个样本的课程。先前在长尾认可的研究试图使用已知样本分布来重新平衡学习,主要解决了同类水平上不同的分类困难。但是,这些方法通常会忽略每个类内的实例难度变化。在本文中,我们提出了一个困难的平衡利润率(DBM)损失,这既考虑阶级失衡和实例难度。dbm损失包括两个组成部分:一个范围的边缘,以减轻由不平衡的类频率引起的学习偏见,以及根据其自发的难度分配给硬阳性样本的实例余量。dbm损失通过将较大的边缘分配给更困难的样本来提高类别的判别性。我们的方法与现有方法无缝结合,并始终提高各种长尾识别基准的性能。
主要关键词
![arxiv:2412.15477V1 [CS.CV] 2024年12月20日PDF文件第1页](/bimg/e/e6085d7cfd96a347eff76a28502edb2b671896d1.webp)
![arxiv:2412.15477V1 [CS.CV] 2024年12月20日PDF文件第2页](/bimg/2/26025610b16826f35d4d81f2f96b10859c7e90a0.webp)
![arxiv:2412.15477V1 [CS.CV] 2024年12月20日PDF文件第3页](/bimg/4/409dbc610764670147c28f3234e08525c07c88dd.webp)
![arxiv:2412.15477V1 [CS.CV] 2024年12月20日PDF文件第4页](/bimg/c/c71857e6ac47de182fc7708ed713363a5b222559.webp)
![arxiv:2412.15477V1 [CS.CV] 2024年12月20日PDF文件第5页](/bimg/e/eaae316dd40d106895a11dc0e11e09f9f4177f25.webp)
